Перевод: со всех языков на английский

с английского на все языки

chaîne de distribution

См. также в других словарях:

  • Chaine (mecanique) — Chaîne (mécanique) ██████████ …   Wikipédia en Français

  • Chaîne (Mécanique) — ██████████ …   Wikipédia en Français

  • Distribution (de moteur à combustion interne) — Pour consulter un article plus général, voir : Courroie. Courroie de distribution crantée La distribution est un dispositif mécanique qui régule l ouverture ou la fermeture des soupapes dans un moteur à combustion interne …   Wikipédia en Français

  • Chaîne (mécanique) — Traduction à relire Roller chain → Chaîne (mécan …   Wikipédia en Français

  • Distribution (moteur) — Éclaté d un moteur à double arbre à cames en tête. En mécanique, la distribution regroupe les mécanismes qui assurent l admission et l échappement des gaz dans les cylindres d un moteur à explosion. L arbre à cames, les soupapes ou encore la… …   Wikipédia en Français

  • Chaine De Valeur — Chaîne de valeur Une chaîne de valeur est l ensemble des étapes déterminant la capacité d une organisation à obtenir un avantage concurrentiel. Ces étapes correspondent aux services de l entreprise ou de manière arbitraire aux activités complexes …   Wikipédia en Français

  • Chaine de valeur — Chaîne de valeur Une chaîne de valeur est l ensemble des étapes déterminant la capacité d une organisation à obtenir un avantage concurrentiel. Ces étapes correspondent aux services de l entreprise ou de manière arbitraire aux activités complexes …   Wikipédia en Français

  • Chaîne De Valeur — Une chaîne de valeur est l ensemble des étapes déterminant la capacité d une organisation à obtenir un avantage concurrentiel. Ces étapes correspondent aux services de l entreprise ou de manière arbitraire aux activités complexes imbriquées qui… …   Wikipédia en Français

  • Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»